3 research outputs found

    Hierarchical Classification of Design Decisions using pre-trained Language Models

    Get PDF
    Die Software-Architektur Dokumentation (SAD) ist ein integrales Artefakt eines Software Projektes. Die SAD trĂ€gt zum fortwĂ€hrenden Erfolg eines Software Projektes bei, indem sie ein gemeinsames VerstĂ€ndnis der Software Architektur gewĂ€hrleistet, wichtige Entwurfsentscheidungen dokumentiert und einer Erosion der Software vorbeugt. Um die QualitĂ€t von SADs zu verbessern und nachgelagerte Aufgaben zu unterstĂŒtzen, ist eine automatische Klassifizierung dieser Entwurfsentscheidungen erstrebenswert. In dieser Arbeit implementieren und evaluieren wir einen Ansatz zur automatischen Identifikation und Klassifizierung von Entwurfsentscheidungen auf der Grundlage einer feingranularen Taxonomie, bei der wir eine hierarchische Klassifikationsstrategie mit dem Einsatz von Transfer-Lernen durch vortrainierter Sprachmodelle kombinieren. Der Beitrag dieser Arbeit besteht darin, den Vorteil einer hierarchischen Klassifikationsstrategie fĂŒr die automatische Klassifikation von Entwurfsentscheidungen gegenĂŒber einem nicht-hierarchischen Ansatz zu untersuchen. Außerdem untersuchen und vergleichen wir die EffektivitĂ€t der vortrainierten Sprachmodelle RoBERTa, XLNet, BERTOverflow und GPT-3 fĂŒr diese Aufgabe. In unserer Evaluation schnitten die AnsĂ€tze mit vortrainierten Sprachmodellen im Allgemeinen besser ab als die Baseline-AnsĂ€tze. Wir konnten jedoch keinen klaren Vorteil der hierarchischen AnsĂ€tze gegenĂŒber den nicht-hierarchischen AnsĂ€tzen in Kombination mit den Sprachmodellen feststelle. Letztlich sind die Ergebnisse dieser Arbeit durch die GrĂ¶ĂŸe und das Ungleichgewicht unseres Datensatzes limitiert und erfordern daher weitere Forschung mit einem grĂ¶ĂŸeren Datensatz

    Establishing a Benchmark Dataset for Traceability Link Recovery between Software Architecture Documentation and Models

    Get PDF
    In research, evaluation plays a key role to assess the performance of an approach. When evaluating approaches, there is a wide range of possible types of studies that can be used, each with different properties. Benchmarks have the benefit that they establish clearly defined standards and baselines. However, when creating new benchmarks, researchers face various problems regarding the identification of potential data, its mining, as well as the creation of baselines. As a result, some research domains do not have any benchmarks at all. This is the case for traceability link recovery between software architecture documentation and software architecture models. In this paper, we create and describe an open-source benchmark dataset for this research domain. With this benchmark, we define a baseline with a simple approach based on information retrieval techniques. This way, we provide other researchers a way to evaluate and compare their approaches
    corecore